06 de diciembre de 2025
Suscribirse


06 de diciembre de 2025
Suscribirse
OPINIÓN

Inteligencia Artificial y Derecho Laboral: Riesgos invisibles

14 de noviembre de 2025

María Camila Ortiz

Gerente de servicios legales en Kpmg Law
Canal de noticias de Asuntos Legales

La irrupción de la inteligencia artificial (IA) en el mundo del trabajo plantea desafíos jurídicos urgentes. Aunque la Ley 2466 de 2025 en Colombia introdujo requisitos de supervisión humana para sistemas automatizados en plataformas digitales de reparto, ¿qué ocurre con el uso de IA en empresas de otros sectores? ¿Cómo garantizar que los algoritmos no vulneren derechos fundamentales en procesos de selección, evaluaciones de desempeño o despidos?

Los sistemas de IA pueden replicar sesgos si se entrenan con datos históricos discriminatorios. Por ejemplo, si en una empresa el 70% de los trabajadores son hombres y se alimenta un sistema de selección con esos datos, es probable que la IA descarte automáticamente a una mujer postulante, no por falta de méritos, sino por patrones aprendidos. Este tipo de discriminación algorítmica es invisible, pero profundamente injusta.

La Unión Europea ha propuesto un modelo regulatorio basado en el riesgo, que clasifica los sistemas de IA en cuatro categorías:

  • Riesgo mínimo: sin obligaciones legales (como filtros de spam).
  • Riesgo limitado: exige transparencia (por ejemplo, que los chatbots informen que son IA).
  • Riesgo alto: incluye sistemas usados en contratación, evaluación de desempeño y vigilancia laboral. Estos deben cumplir requisitos como supervisión humana, evaluaciones de impacto, prevención de sesgos y trazabilidad.
  • Riesgo inadmisible: prohibidos, como la detección emocional en el trabajo.

Este enfoque busca proteger derechos fundamentales como la igualdad de oportunidades, la no discriminación y la autonomía del trabajador frente a decisiones automatizadas. También promueve la formación continua para que los trabajadores comprendan y se adapten a entornos laborales con IA, y limita el uso de tecnologías invasivas que afecten la privacidad e intimidad de los trabajadores.

En Colombia, mediante el Proyecto de Ley 043 de 2025, inspirado en el modelo de la UE, se propone clasificar los sistemas de IA en cuatro niveles de riesgo: crítico, alto, con obligaciones específicas de transparencia, y mínimo o nulo. Esta clasificación busca anticipar los impactos adversos que pueden derivarse del uso de IA en distintos contextos, incluyendo el ámbito laboral.

Los sistemas de IA considerados de alto riesgo incluyen aquellos utilizados en el empleo y la gestión de trabajadores como los aplicados en procesos de selección, evaluación de desempeño, promociones o despidos. Por su capacidad de incidir directamente en derechos fundamentales, estos sistemas deberán someterse a evaluaciones de impacto antes de su implementación y tras cualquier modificación sustancial.

Además, se establecen requisitos específicos para estos sistemas, como:

  • Implementar medidas para reducir riesgos de discriminación y sesgos.
  • Garantizar que los datos empleados sean fiables y representativos.
  • Mantener registros detallados de las actividades del sistema.
  • Proporcionar información clara sobre su funcionamiento.
  • Asegurar que trabajadores y empleadores comprendan los procesos automatizados.
  • Garantizar intervención humana en decisiones críticas.
  • Desarrollar sistemas con altos estándares de precisión y fiabilidad.

La ausencia de una regulación específica para el uso de IA en entornos laborales diferentes a plataformas digitales deja un vacío que puede afectar gravemente los derechos de los trabajadores. Colombia tiene la oportunidad de anticiparse a los riesgos y construir un marco legal que combine innovación tecnológica con justicia laboral.

¿Quiere publicar su edicto en línea?

Solo envíe su Edicto o Aviso de Ley, y recibirá la información para su publicación
Comprar ahora
Contáctenos vía WhatsApp

ÚLTIMA EDICIÓN IMPRESA